向最终用户提供有意义且可操作的解释是实现现实世界中可解释智能系统的基本前提。可解释性是用户与人工智能系统之间的情境交互,而不是静态的设计原则。解释的内容依赖于上下文,必须由有关用户及其上下文的证据来定义。本文试图通过提出一种从用户启发的角度定义解释空间的形成性架构来将这一概念付诸实践。该架构包括五个相互交织的组件,以概述任务的解释要求:(1)最终用户的心理模型,(2)最终用户的认知过程,(3)用户界面,(4)人类解释者代理和(5)代理过程。我们首先定义架构的每个组件。然后,我们介绍抽象解释空间,这是一种建模工具,它聚合了架构的组件,以支持设计人员系统地将解释与最终用户的工作实践、需求和目标保持一致。它指导需要解释的内容(内容 - 最终用户的心理模型)、为什么需要解释(背景 - 最终用户的认知过程)、如何解释(格式 - 人机解释代理和用户界面)以及何时给出解释。然后,我们在飞机维护领域的一个正在进行的案例研究中举例说明了该工具的使用。最后,我们讨论了该工具的可能贡献、已知的限制/改进领域以及未来要做的工作。
主要关键词
![arXiv:2106.01503v1 [cs.AI] 2021 年 6 月 2 日PDF文件第1页](/bimg/3/3ca4cea6ed3bc959deb61bc7451acab8a7079bf1.webp)
![arXiv:2106.01503v1 [cs.AI] 2021 年 6 月 2 日PDF文件第2页](/bimg/7/7f6c9ff0856bfff1e7a585f785ee9a02a243fba2.webp)
![arXiv:2106.01503v1 [cs.AI] 2021 年 6 月 2 日PDF文件第3页](/bimg/f/f6ff38227fa709a8d07c7dc707e0c4e5fa412524.webp)
![arXiv:2106.01503v1 [cs.AI] 2021 年 6 月 2 日PDF文件第4页](/bimg/c/c4a5b1cf7cfaf5b47bf6839e5e6b58f8df7a4bc5.webp)
![arXiv:2106.01503v1 [cs.AI] 2021 年 6 月 2 日PDF文件第5页](/bimg/e/ecbc5aadf0a16b569c9a5375d00ec139cdd7010b.webp)
